iT邦幫忙

2024 iThome 鐵人賽

DAY 5
0

那本篇就來進入到本地部屬llm的部分!

本地部屬模型的幾種方法

將模型部屬至本地執行有很多方法,這邊已meta的Llama3為例,可以用Ollama平台,或是HuggingFace的transformer,也可以直接去meta的官方申請,再去它們的github專案下載。
我們今天就先來介紹使用Ollama來部屬本地模型。


Ollama

先來介紹一下Ollama這個平台

ollama是一個for AI 開發者的平台,他讓大語言模型(LLM)使用和開發所需要做的流程簡化直觀很多。提供了一個直觀的環境來運行、創建和管理模型,支援多個作業系統,包括 macOS、Linux, Windows 等等。
他能夠自動檢測使用最佳硬體配置,像是 NVIDIA GPU ,使 model 高效運行,不需要使用者做額外的配置。ollama 裡還有很完整的模型庫,像是自然語言處理和影像識別等等,讓 user 能輕鬆使用如 llama、gemma 等熱門模型。此外,Ollama 提供內建的 Always-On API,便於開發者將許多 AI model 的功能使用整合到自己的一些應用中,簡化了開發過程,讓開發者可以快速上手。

那我們就馬上開始用吧!
首先先去官網將SetUp檔載下來,依據PC的作業系統選擇
https://ithelp.ithome.com.tw/upload/images/20240919/20160630m662MaEidC.png

下載完並開始SetUp安裝完後,我們就可以開始在terminal(cmd or powershell)使用了!
首先我們先輸入下載模型的指令

ollama pull ModelName

就可以將想要的模型下載下來了,然後輸入

ollama list

就可以看到本地現有的模型
那假如想要指定模型的版本,例如想指定llama3-8b的,就要

ollama pull llama3:8b 

這樣就可以指定版本了! 假如沒指定的話就是下載他們預設的版本,通常是7b左右
那想要查看可以用的model可以到這裡查看(https://ollama.com/library)

接著我們輸入

ollama run ModelName

就可以開始運行模型了,在這邊就可以直接輸入,得到模型的輸出
https://ithelp.ithome.com.tw/upload/images/20240919/20160630qAYPah9ied.png

這就是最基本的使用ollama部屬本地模型並和模型交互的方式了,是不是很簡單呢?
之後我們就會帶到ollama其他與模型的交互方式,已完成更多的應用!


Ollama官網


上一篇
<玩轉大語言模型> 論本地LLM模型部屬
下一篇
<玩轉大語言模型> LLM模型部屬: HuggingFace & Transformer (上)
系列文
LangChain、RAG、HuggingFace: 玩轉大語言模型12
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言